Claude Code雑感
人間側の課題
レビューが大変
コードの構造が分からなければ、指示が曖昧か現状とそぐわないものになり、自分がコントロールできなくなる
方針
テストが通ったらマージできると自信が持てる環境をつくり、保つ
自信が剥がれてきたら黄信号
方針を実現するためのプラクティス
方向性をなるべく明確にする
抽象的な開発原則
具体的な階層構造・命名規則
過去の意思決定を残しておく
仕様に対するテストをまず書く
これにより、仕様通りに実装されることをテストで保証する
レビューの負荷を大幅に軽減する
テストはコンテキストを与える方法。失敗したらそのコンテキストが注入される
push前に必ずテストを通すことを強制する
依存関係を強制する
コード数を減らす
仕様をシンプルに保つ
fallback実装で2系統持ったりしない
技術の進化にかける
過度に複雑になるなら実装せずに待つ
昔のブラウザに対応しない
人間のコード理解
性質
比較的長時間でバカになる
fallback処理を気軽に入れてくるが、前提が変わるのでややこしくなる。大体不要なことが多い
websocketのアプリなのにHTTPにfallback
localだけ別の分岐を作ろうとする
2025-08-26
こういう体験はグッド
ADRを書かせてPRを出させる。レビューしている間に別の調査タスクを実行してもらう
人間とclaudeが並列に別の仕事ができる
Claude Codeがlimitに達するとコードを書かなくていいか、となる。その間に別のことをしてlimitが軽減したら始めた方がトータルでコスパがいいため。
優秀なプログラマーとは、コスパよく人当たりが良いプログラマーとなる日も近い。
アンダーマイニング効果かと一瞬思ったがコードを書くこと自体に強烈な喜びがあるわけではないのでそうではないな。ものづくりの80%ぐらいは苦痛。宮崎駿もめんどくせ〜とか言ってるし。 https://gyazo.com/fd77f7c71061e1090cc5aee6b68c5820
Claude Codeのlimitがくるまでコードを走らせるのでPolaris Pathfinderが使えないバグがある。バグだろこれ。Maxにすると価格は5倍になるので仕事道具感は出てくる。月額15000円のサブスクは駐車場なんだよな。そう考えると駐車場って高すぎませんか 一旦落ち着くのは有効?
Claude Codeでテストが通らず(テストを直すとlintが落ち、e2eテストが落ち...)無限ループして時間がかかるようになった
GPT-5に相談して理想的な姿を設計してから実装
まずプランニングをするのが大事?
そんなことは今更主張するまでもなく、AI agentにはこれが組み込まれている。しかしうまくいかずにハマっている時には、外部から注入するのが有効な時があるかもしれない。一度それでうまくいったからといってそうだとも言えないし、なんとも言えないがハマっていたら試す価値はある。
少なくとも今回のSonnetのハマりをGPT-5のJunieは解いた
テストはコンテキストを与える方法だ